41 research outputs found

    Ultra-High Performance and Low-Cost Architecture of Discrete Wavelet Transforms

    Get PDF
    This work targets the challenging issue to produce high throughput and low-cost configurable architecture of Discrete wavelet transforms (DWT). More specifically, it proposes a new hardware architecture of the first and second generation of DWT using a modified multi-resolution tree. This approach is based on serializations and interleaving of data between different stages. The designed architecture is massively parallelized and sharing hardware between low-pass and high-pass filters in the wavelet transformation algorithm. Consequently, to process data in high speed and decrease hardware usage. The different steps of the post/pre-synthesis configurable algorithm are detailed in this paper. A modulization in VHDL at RTL level and implementation of the designed architecture on FPGA technology in a NexysVideo board (Artix 7 FPGA) are done in this work, where the performance, the configurability and the generic of our architecture are highly enhanced. The implementation results indicate that our proposed architectures provide a very high-speed data processing with low needed resources. As an example, with the parameters depth order equal 2, filter order equal 2, order quantization equal 5 and a parallel degree P = 16, we reach a bit rate around 3160 Mega samples per second with low used of logic elements (≈400) and logic registers (≈700)

    Industrial IoT Using Wavelet Transform

    Get PDF
    For many years now, communication in the industrial sector has been characterized by a new trend of integrating the wireless concept through cyber-physical systems (CPS). This emergence, known as the Smart Factory, is based on the convergence of industrial trades and digital applications to create an intelligent manufacturing system. This will ensure high adaptability of production and more efficient resource input. It should be noted that data is the key element in the development of the Internet of Things ecosystem. Thanks to the IoT, the user can act in real time and in a digital way on his industrial environment, to optimize several processes such as production improvement, machine control, or optimization of supply chains in real time. The choice of the connectivity strategy is made according to several criteria and is based on the choice of the sensor. This mainly depends on location (indoor, outdoor, …), mobility, energy consumption, remote control, amount of data, sending frequency and security. In this chapter, we present an Industrial IoT architecture with two operating modes: MtO (Many-to-One) and OtM (One-to-Many). An optimal choice of the wavelet in terms of bit error rate is made to perform simulations in an industrial channel. A model of this channel is developed in order to simulate the performance of the communication architecture in an environment very close to industry. The optimization of the communication systems is ensured by error correcting codes

    Conception de PLA CMOS

    No full text
    Etude des PLA CMOS. Les 4 aspects suivants sont développés : ― performance électrique: spécification d'évaluation électrique et temporelle de PLA par une technique hybride estimation-simulation basée sur la recherche du chemin critique d'E/S dans le PLA; ― distribution des types de pannes en fin de fabrication et leurs manifestations électriques et logiques. Une approche vers le test de PLA CMOS est également présentée; ― amélioration du rendement de fabrication par la conception de PLA reconfigurable (ajout de lignes supplémentaires; ― partitionnement de PLA en vue de réduire la surface, le temps de réponse, et de faciliter la reconfiguration et l'interconnexion avec les blocs voisin

    Évaluations électriques et temporelles des PLA complexes COMPLETE : COM plex PLA Electrical and Temporal Evaluator

    No full text
    Étude des évaluations électriques et temporelles des PLA (NMOS, CMOS, bipolaires) complexes. Étude d'un outil prototype d'évaluation capable de calculer les paramètres électriques et topologiques et d'estimer le temps de propagation dans les PLA. On isole les paramètres qui donnent des degrés de libertés ; on obtient le choix des compromis de réalisation d'un PLA particulier à partir d'abaques, générés par le système. L'utilisateur peut alors choisir l'organisation d'un PLA particulier en fonction de sa consommation, de sa fiabilité logique et de son temps de réponse

    Étude d'une architecture parallèle de processeur pour la transmission de données à haut débit

    No full text
    Le travail de cette thèse s'intègre dans un projet général au sein du laboratoire LICM concernant la conception architecturale d'une chaîne de transmission à haut débit. L'objectif global est de concevoir un processeur spécialisé pour le traitement rapide des algorithmes des divers protocoles présents dans les couches basses des modèles références (OSI, Internet, ITU-T/ATM). L'évolution des technologies et l'élargissement des bandes passantes des réseaux de transmission ont transféré le goulot d'étranglement concernant les débits autorisés vers les équipements constituant les nœuds actifs des réseaux. La prise en charge de la diversité des protocoles employés, de l'hétérogénéité des données et des très forts débits requis, n'est possible que par une forte montée en puissance de la capacité de traitement de ces équipements. Si ce problème est déjà en bonne partie traité en ce qui concerne les routeurs et les commutateurs, beaucoup de chemin reste encore à faire concernant les équipements terminaux de circuits de données (ex : modem, carte réseau) dans le domaine du haut débit. La conception d'une architecture de processeur spécialisée dépend fortement des caractéristiques des applications auxquelles le processeur est dédié. L'architecture globale choisie pour le processeur est celle d'un ensemble d'unités de traitement généralistes (mini coeurs de processeur) ou spécialisées (modules auxiliaires) interconnectées. Le but est d'offrir une capacité de traitement parallèle élevée. Le développement d'une telle architecture nous impose de définir une démarche méthodologique appropriée. Cette démarche commence par une étude de protocoles de réseaux représentatifs. Il s'agit tout d'abord d'identifier parmi les principales tâches (opérations) des protocoles, les plus communes et les plus critiques d'entre elles. Les tâches critiques (du point de vue temporel) sont traitées par des modules spécialisés (dont l'étude fait l'objet d'autres travaux). Les tâches restantes sont prises en charge par les unités de traitement généralistes dont l'étude constitue l'essentiel de ce travail. Les performances potentielles de ces unités généralistes sont évaluées en fonction de différentes architectures cibles (CISC, RISC, superscalaire, VLIW). La technique mise en place, pour l'évaluation des performances temporelles des architectures, repose sur une modélisation des algorithmes par chaînes de Markov. Un banc de simulation a été réalisé implantant la technique. Afin de ne pas favoriser indûment une architecture, nous avons introduit un modèle de processeur virtuel pour coder les algorithmes sans introduire de contrainte lié à l'une des architectures. L'analyse des résultats obtenus avec le banc de simulation, nous a permis de déterminer les architectures les plus appropriés par type d'algorithme. La performance de l'architecture globale du processeur (fonctionnement parallèle de l'ensemble des unités de traitement) a été évaluée pour différentes conditions de trafic. Un modèle d'interconnexion simplifié (par rapport au modèle final) a été utilisé, reliant les unités de traitement sous forme d'un pseudo-pipeline (linéaire ou non). Enfin, deux types d'unités de traitement généralistes (mini coeurs de processeur) ont été modélisées en VHDL au niveau RTL et alidées sur FPGA.The work presented here is part of a general project within the LICM laboratory, concerning the architectural design of a high data rate transmission system. The main objective is to design a specialized processor for fast processing of the lower layer protocols in the reference models (OSI, Internet, ITU-T/ATM). The technology evolution and increasing of the bandwidth of the physical transmission media have transferred the bottleneck concerning the available data rates of the communication networks towards the network active node equipments. Managing the protocol diversity, the data heterogeneity, and high data rates requires a substantial improvement of the processing power in these equipments. Although this problem has been largely addressed concerning routers and switches, end-user equipments (e.g : modems and network interface cards) are still far from matching the requirement of high data rates. The design of a specialized processor architecture depends strongly on the characteristics of applications to which the processor is dedicated. The architecture selected for the processor is a set of interconnected general processing units (mini processor cores) or specialized modules (auxiliary modules). The goal is to offer a high level of parallel processing capacity. The development of such an architecture requires a suitable design methodology to be defined, which starts by a study of representative network protocols. First of all, the goal is to identify among the principal tasks (operations of the protocols) the most common and the most critical. The critical tasks (from the realtime point of view) are processed by specialized modules (whose study is not our goal). The remaining tasks are performed by the general processing units, whose study is the main subject of this work. Potential performance of these general units is evaluated for various target architectures (CISC, RISC, superscalair, VLIW). The time performance evaluation of architectures is based on the algorithm modelling using Markov chains which was used to implement the simulation tools. In order not to favour a particular architecture, we introduced a virtual processor model to encode the algorithms without introducing any constrains related to actual architectures. The analysis of the simulation results allowed us to find good architectures/algorithms adequacy. The performance of the overall processor architecture (parallel operation of the processing units) was evaluated under various traffic conditions. A simplified interconnection model (compared to the final model) was used which allowed to connect the processing units in a pseudo-pipeline (linear or not) chain. Lastly, two types of general processing units (mini processor cores) have been designed in VHDL at the RTL level and validated on FPGA.METZ-SCD (574632105) / SudocSudocFranceF

    Etude et optimisation d'une chaîne de transmission numérique sur fibre optique (vers une compensation électronique de la PMD)

    No full text
    L évolution de la transmission des données par fibre optique s est accélérée ces dernières années. Le besoin de transmettre des débits plus élevés (aujourd hui supérieurs ou égaux à 40 Gb/s) sur des longueurs de transmission de plus en plus grandes ne cesse de croître. Malheureusement la sensibilité aux défauts de propagation augmente avec le débit, que ce soit pour les effets linéaires dus à la dispersion chromatique (CD) et à la dispersion de mode de polarisation (PMD - polarization- mode dispersion) de la fibre, ou les effets non linéaires essentiellement induits par l effet Kerr (variation de l indice de réfraction en fonction de l intensité lumineuse). Dans ce contexte, ce travail de thèse rapporte l étude des effets de la CD et de la PMD sur les transmissions hauts débits. En outre, la PMD est identifiée aujourd hui comme la principale source de limitation de la bande passante et de la capacité de transmission autorisées sur une fibre. Par ailleurs, la biréfringence dans les fibres optiques représente la cause principale de la dispersion de mode de polarisation (PMD).Dans ce travail, nous nous sommes focalisés plus particulièrement sur l étude des effets de la température sur la PMD dans les fibres monomodes standards (SMF) correspondant à la spécification ITU-G.652 utilisées dans les réseaux de transmission longues distances. En tenant compte de l ellipticité du cœur de la fibre, la variation de la PMD en fonction de la température est étudiée à travers l évolution de la biréfringence en fonction du paramètre V de la fibre pour différentes températures. Ce travail de thèse ouvre la voie pour développer une architecture permettant de compenser la PMD par traitement numérique du signal. L idée sous jacente est de remplacer une technologie coûteuse (composants optiques) par une architecture numérique à faible coût, et plus universelle. Les travaux en cours sur la compensation de la PMD par voie électronique sont encourageants et semblent très prometteurs à court terme.The evolution of optical fibre transmissions accelerated these last years. The need to transmit high bit rates (today equal to or higher than 40 Gb/s) over increasingly large lengths of transmission is constantly growing. Unfortunately, the sensitivity of propagation to defects increases with the bit rate. These effects are related to chromatic dispersion CD, polarization mode dispersion PMD, or to nonlinear effects primarily induced by the effect Kerr (dependence of the index of refraction of fibre of the light intensity). In this context, this work focuses on the study of the effects of CD and the PMD on the optical transmissions. Moreover, the PMD is identified today as the principal source of limitation in high bit rate transmissions. In addition to that, birefringence in optical fibres represents the principal cause of PMD. In this work, we particularly focused on the study of the effects of the temperature on the PMD in monomode standards fibres (SMF) corresponding to specification ITU-G.652 used in the optical networks. By taking into account of the ellipticity of the fibre, the variation of the PMD according to the temperature is studied through the evolution of birefringence according to the parameter V of fibre for various temperatures. This work of thesis opens the way to develop an architecture making it possible to compensate for the PMD by digital signal processing. The main idea is to replace an expensive technology (optical components) by a numerical architecture at low cost, and more universal. The works in progress on the compensation of the PMD by electronic way are encouraging and seem very promising at short-term.METZ-SCD (574632105) / SudocSudocFranceF

    Modélisation, simulation et optimisation des architectures de récepteur pour les techniques d'accès W-CDMA

    No full text
    Ce mémoire porte sur la conception de l'interface numérique s'occupant, lors de la réception au sein d'un système de transmission de données, des problèmes d'accès au canal dans les protocoles large bande de type W-CDMA (Wideband Code Division Multiple Access / Multiplexage à large bande par code). Le cœur de la problématique se situe dans la partie numérique en bande de base, le récepteur RAKE. Ce récepteur est responsable de la démodulation du signal et de l'exploitation de la diversité du signal en identifiant et combinant les composantes de trajets multiples d'un même signal. En effet, cette dernière fonction est particulièrement importante d une part de son rôle pour contrer les effets d'évanouissement causés par les trajets multiples, et d autre part du rôle central du récepteur RAKE. La conception et l'implantation de celui-ci revêtent un caractère primordial. Dans ce mémoire, nous proposons une nouvelle architecture pour le récepteur RAKE : CodeRAKE. Les caractéristiques architecturales principales recherchées sont une grande flexibilité et une extensibilité aisée, tout en préservant la fonctionnalité et un bon équilibre entre ressources utilisées (et donc surface consommée) et performances (vitesse de fonctionnement). Pour satisfaire les contraintes de flexibilité et d'extensibilité, l'architecture CodeRAKE est partitionnée (pour être modulaire) en fonction du nombre d'utilisateurs et du nombre de codes par utilisateur, sans perdre de vue les contraintes de limitions de ressources utilisées et de préservation des performances. La modularité élevée de CodeRAKE permet l'application aisée de techniques de parallélisation permettant d'augmenter facilement les performances pour satisfaire notamment les besoins du côté de la station de base. L'approche architecturale mise en œuvre est souple et peut être facilement adaptée à d'autres protocoles existants ou futurs. Elle répond ainsi au défi des années à venir, où les récepteurs devront être capables de supporter de multiples protocoles et interfaces d'accès, notamment sous le contrôle de couches logiciellesThis thesis focuses on the design of the air interface of W-CDMA (Wideband Code Division Multiple Access) systems, particularly on the aspects related to the channel access problems at the reception side. The main concern herein is the design of the baseband digital parts, that is, the RAKE receiver. This receiver is in charge of the signal demodulation and responsible for making profit of signal diversity. This late functionality is particularly important as it allows to counter signal fading by detecting and combining multipath components (leading to signal reinforcement) Given the central role of the RAKE receiver, its design and implementation are of paramount importance. In this thesis, we propose a new architecture for the RAKE receiver: CodeRAKE. The main architectural characteristics being aimed are high flexibility and scalability, yet preserving a good trade-off between resource use (and hence, area consumption) and performance (operation speed). In order to satisfy the flexibility and scalability constraints, the CodeRAKE architecture is modular and partitioned according to the number of users and the number of codes per user, with the resource limitation and performance preservation constraints in mind. The high levels of modularity of the CodeRAKE architecture allow an easy use of parallelisation techniques, which in turn allow an easy increase of performances, particularly at the base station side.The architectural approach proposed herein are versatile and can be easily adapted to other existing or future protocols. It responds to the challenge of the coming years, where the receiver will have to support multiple protocols and access interfaces, including control software layersMETZ-SCD (574632105) / SudocSudocFranceF

    Étude des modes de perturbation et susceptibilité des circuits numériques aux collisions de particules et aux attaques laser

    No full text
    Nous confions de plus en plus d'informations confidentielles à nos cartes à puces, comme les codes d'accès à notre banque, ou les clés de démarrage de la voiture. Ces circuits sécuritaires deviennent la cible de personnes malintentionnées qui cherchent à récupérer ces informations à leur profit. Ces attaquants utilisent des techniques de pointe comme la perturbation du fonctionnement des circuits, pour parvenir à leurs fins. Pour répondre aux besoins d'un marché très concurrentiel, les concepteurs doivent se protéger de ces perturbations tout en minimisant les coûts de conception. Ces contraintes imposent un compromis entre coût et efficacité, et justifient des techniques automatiques de conception adaptées. La première partie de ce mémoire est consacrée à l'étude des différentes sources de perturbation d'un circuit intégré, où nous mettons en évidence les similitudes entre une attaque laser et l'impact de particules. Nous montrons ensuite les spécificités de la conception de circuits sécuritaires et les différents types d attaque à la disposition des pirates. La troisième partie est dédiée à la caractérisation des perturbations. Une méthodologie de conception est proposée et utilisée sur deux circuits, l'un mesurant la durée des perturbations d'un tir laser sur des portes logiques 130nm MOS, l'autre mesurant la sensibilité de portes aux neutrons. Nous finissons par une présentation des résultats obtenus sur le premier circuit après une campagne de tests.More and more sensitive data are stored inside smart cards, like bank account or car access codes. Recently, these security circuits have become a target for hackers who try to abuse these data. To achieve this goal, these attackers use the state of the art technologies like fault injection. To comply with the smart card market requirements, designers have to build protections against these attacks while keeping design costs as low as possible. These constraints should lead to a cost-efficient design and benefit from dedicated automatic protection methodologies. In this thesis we first study radiation sources able to tamper with silicon circuit behavior, and then we reveal similarities between laser attacks and radiation effects on a circuit. Then we show the specificities of secure circuit design and the spectrum of attacks used by hackers. The third part characterizes Single Event Transients (SET). A design methodology is proposed and implemented in two circuits, one dedicated to measuring laser-induced SET duration in logic gates, the other dedicated to measuring gate sensitivity to neutrons. This work concludes the review of results obtained after a laser shooting experiment campaign.METZ-SCD (574632105) / SudocSudocFranceF

    Etude et optimisation d'une chaîne de transmission numérique par voie optique (vers une compensation électronique des effets de la PMD)

    No full text
    L'évolution de la transmission des données par fibre optique s'est accélérée ces dernières années. Le besoin de transmettre des débits plus élevés (aujourd'hui supérieurs ou égaux à 40 Gb/s) sur des longueurs de transmission de plus en plus grandes ne cesse de croître. Malheureusement la sensibilité aux défauts de propagation augmente avec le débit, que ce soit pour les effets linéaires dus à la dispersion chromatique (CD) et à la dispersion de mode de polarisation (PMD - polarization- mode dispersion) de la fibre, ou les effets non linéaires essentiellement induits par l'effet Kerr (variation de l'indice de réfraction en fonction de l'intensité lumineuse). Dans ce contexte, ce travail de thèse rapporte l'étude des effets de la CD et de la PMD sur les transmissions hauts débits. En outre, la PMD est identifiée aujourd'hui comme la principale source de limitation de la bande passante et de la capacité de transmission autorisées sur une fibre. Par ailleurs, la biréfringence dans les fibres optiques représente la cause principale de la dispersion de mode de polarisation (PMD).Dans ce travail, nous nous sommes focalisés plus particulièrement sur l'étude des effets de la température sur la PMD dans les fibres monomodes standards (SMF) correspondant à la spécification ITU-G.652 utilisées dans les réseaux de transmission longues distances. En tenant compte de l'ellipticité du cœur de la fibre, la variation de la PMD en fonction de la température est étudiée à travers l'évolution de la biréfringence en fonction du paramètre V de la fibre pour différentes températures. Ce travail de thèse ouvre la voie pour développer une architecture permettant de compenser la PMD par traitement numérique du signal. L'idée sous jacente est de remplacer une technologie coûteuse (composants optiques) par une architecture numérique à faible coût, et plus universelle. Les travaux en cours sur la compensation de la PMD par voie électronique sont encourageants et semblent très prometteurs à court termeThe evolution of optical fibre transmissions accelerated these last years. The need to transmit high bit rates (today equal to or higher than 40 Gb/s) over increasingly large lengths of transmission is constantly growing. Unfortunately, the sensitivity of propagation to defects increases with the bit rate. These effects are related to chromatic dispersion CD, polarization mode dispersion PMD, or to nonlinear effects primarily induced by the effect Kerr (dependence of the index of refraction of fibre of the light intensity). In this context, this work focuses on the study of the effects of CD and the PMD on the optical transmissions. Moreover, the PMD is identified today as the principal source of limitation in high bit rate transmissions. In addition to that, birefringence in optical fibres represents the principal cause of PMD. In this work, we particularly focused on the study of the effects of the temperature on the PMD in monomode standards fibres (SMF) corresponding to specification ITU-G.652 used in the optical networks. By taking into account of the ellipticity of the fibre, the variation of the PMD according to the temperature is studied through the evolution of birefringence according to the parameter V of fibre for various temperatures. This work of thesis opens the way to develop an architecture making it possible to compensate for the PMD by digital signal processing. The main idea is to replace an expensive technology (optical components) by a numerical architecture at low cost, and more universal. The works in progress on the compensation of the PMD by electronic way are encouraging and seem very promising at short-termMETZ-SCD (574632105) / SudocSudocFranceF
    corecore